Knowledge Distillation
強化学習の文脈におけるDistillationは、機械学習の技術の一つで、特に知識の伝達やモデルの圧縮に関連している。複雑なモデル(教師モデル)から得られた知識を、より単純で効率的なモデル(生徒モデル)に伝達するプロセスを指す。
強化学習(Reinforcement Learning; RL)